1
Representação e Raciocínio do Conhecimento (KRR)
PolyU COMP5511Aula 4
00:44

INTRODUÇÃO

Bem-vindo à Aula 4: Representação e Raciocínio do Conhecimento (KRR). Neste módulo, abordamos o desafio fundamental da Inteligência Artificial: como modelar o mundo simbolicamente. Não basta que uma máquina armazene dados; ela deve raciocinar sobre isso. Exploraremos como os sistemas de IA representam informações logicamente para realizar inferências, indo além da simples correspondência de padrões.

SEÇÃO 1: Fundamentos Históricos

Atravessaremos o cenário técnico desde a clássica Lógica Proposicional e Lógica de Primeira Ordem até as estruturas rígidas, porém poderosas, dos Sistemas Especialistas. Esses sistemas forneceram as primeiras máquinas "pensantes" capazes de dedução lógica.

SEÇÃO 2: Convergência Moderna

Finalmente, chegamos à vanguarda da IA moderna, examinando Grafos de Conhecimento e IA Neuro-Simbólica. Este campo emergente visa fundir a explicabilidade rigorosa da lógica com as capacidades de aprendizado adaptativo das redes neurais.

Alerta de Contexto
Ao contrário das redes neurais que funcionam como "caixas pretas", a KRR foca em modelos "caixa branca" onde o caminho de raciocínio é explícito, verificável e interpretável.
Exemplo de Sintaxe Lógica Simbólica
1
Fato: Pai( Alice, Bob )
2
Fato: Pai( Bob, Charlie )
3
Regra: x, y, z ( Pai(x, y) Pai(y, z) Avô(x, z))
4
Inferência: Avô( Alice, Charlie )
Estudo de Caso: O Diagnóstico Médico
Leia o cenário abaixo e responda às perguntas.
Sistemas de IA antigos como o MYCIN usavam KRR para diagnosticar infecções sanguíneas. Ao contrário do ML moderno que adivinha com base em estatísticas, o MYCIN usava mais de 600 regras derivadas de médicos.
Q1
1. Por que a explicabilidade é crítica em um sistema KRR médico em comparação com um classificador de imagem genérico?
Resposta:
Na medicina, os médicos exigem um caminho verificável (a cadeia de regras usadas) para confiar em um diagnóstico. Uma previsão de "caixa preta" é inaceitável para decisões críticas. KRR fornece esse caminho de raciocínio explícito.
Q2
2. Como o sistema lida com uma regra como "Se a febre for alta, ENTÃO a infecção é provável"?
Resposta:
Esta regra é representada simbolicamente (por exemplo, HighFeverLikelyInfection). O Motor de Inferência verifica se o fato HighFever is true in the patient's record; if so, it asserts LikelyInfection como uma nova conclusão.
Q3
3. Identifique as limitações da codificação manual dessas regras (O Gargalo de Aquisição de Conhecimento).
Resposta:
A principal limitação é o Gargalo de Aquisição de Conhecimento: a dificuldade e o tempo exigidos para que especialistas humanos articulem todo o seu conhecimento em regras formais e explícitas. O conhecimento do mundo real é frequentemente ambíguo e vasto demais para codificação manual.